Материалы по тегу: microsoft azure

15.01.2024 [19:58], Сергей Карасёв

Microsoft обновила облачную платформу с целью обеспечения суверенитета данных ЕС

Корпорация Microsoft сообщила о проведении модернизации своей облачной инфраструктуры с тем, чтобы клиенты в Европейском союзе могли хранить и обрабатывать персональные данные исключительно на территории соответствующего региона.

Глобальные технологические компании находятся под растущим давлением со стороны регулирующих органов ЕС, требующих предоставления так называемых суверенных облачных услуг. Такие сервисы должны гарантировать, что персональные данные не только хранятся, но и обрабатываются локально. Microsoft выполняет соответствующие требования в рамках своего обязательства EU Data Boundary.

В прошлом году редмондский гигант предоставил клиентам из ЕС возможность хранить и обрабатывать данные в рамках региона для сервисов Microsoft 365, Azure, Power Platform и Dynamics 365. Теперь Microsoft расширяет своё обязательство, включая в него все персональные данные, в том числе автоматические системные журналы, которые могут содержать псевдонимизированные сведения. Утверждается, что тем самым Microsoft становится первым крупным поставщиком облачных услуг, обеспечивающим столь высокий уровень резидентности данных для европейских клиентов.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Кроме того, Microsoft повысила прозрачность работы, обновив документацию и другую информацию, которые касаются хранения и обработки данных европейских пользователей. Это поможет клиентам лучше понять технические и организационные меры, принятые Microsoft. В целом, как утверждается, EU Data Boundary выходит за рамки европейских требований и отражает «стремление Microsoft предоставлять надёжные облачные услуги». Позднее в текущем году корпорация обеспечит хранение на территории ЕС данных, которые генерируются в процессе взаимодействия клиентов с технической поддержкой.

Постоянный URL: http://servernews.ru/1098772
15.12.2023 [18:30], Руслан Авдеев

LinkedIn приостановила миграцию в Microsoft Azure и занялась развитием собственных ЦОД

Microsoft приобрела социальную сеть LinkedIn ещё в 2016 году. В 2019 году Microsoft объявила и планах перенести всю инфраструктуру LinkedIn в облако Azure, избавившись от принадлежих соцсети ЦОД. Однако, как сообщает Datacenter Dynamics, процесс миграции долгое время откладывался, а сейчас с ним и вовсе было решено повременить. Соответствующий проект под кодовым названием Blueshift поставлен на паузу, хотя никто не говорит о его полной отмене.

Как выяснилось, ещё летом прошлого года технический директор LinkedIn уведомил сотрудников о том, что хотя компания продолжит использовать некоторые сервисы Azure, она сфокусируется на масштабировании и модернизации собственной инфраструктуры. В числе причин, препятствующих переходу в облако Microsoft, он назвал огромный спрос на сервисы Azure и рост собственной платформы — в результате было решено приостановить миграцию для того, чтобы перераспределить ресурсы облака в пользу внешних клиентов.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Впрочем, эксперты считают, что это не единственные и, возможно, не главные причины пересмотра планов. Социальная сеть строит новый ЦОД и работает с уже существующими. В ноябре количество аккаунтов перевалило за 1 млрд, так что LinkedIn вынуждена взвешенно подходить к вопроса развития инфраструктуры. Хотя компания начала пользоваться некоторыми сервисами Azure, включая CDN FrontDoor, к середине 2022 года наметились проблемы с полным переходом в облако Microsoft.

В частности, LinkedIn намеревалась после миграции использовать собственные программные инструменты вместо тех, которые доступны в Azure. До того, как социальную сеть купила Microsoft, LinkedIn активно инвестировала в собственную инфраструктуру ЦОД и вкладывалась в технологические инновации. В частности, компания развивала конкурирующий с OCP набор стандартов Open19 и разрабатывала собственное аппаратное обеспечение.

Теперь в LinkedIn заявили, что продолжат инвестировать в собственные дата-центры, используя Azure для поддержки ряда систем, в том числе сугубо внутренних. В компании подчеркнули, что облако Azure остаётся критически важным для работы LinkedIn. В ближайшее время соцсеть намерена продолжить консолидацию ЦОД, расположенных в разных регионах. Примечательно, что сама Microsoft неоднократно заявляла о практически полном переезде всех своих внутренних систем в Azure.

Постоянный URL: http://servernews.ru/1097537
09.12.2023 [00:23], Владимир Мироненко

Не за себя радеем: Amazon поддержала Google, обвинив Microsoft в антиконкурентном поведении на облачном рынке Великобритании

Amazon присоединилась к Google, обвинившей Microsoft в антиконкурентном поведении на облачном рынке Великобритании и направившей письмо по этому поводу в Управление по защите конкуренции и рынкам (Competition and Markets Authority, CMA) Великобритании. В своём письме от 23 ноября 2023 года, опубликованном на днях на сайте CMA, Amazon отметила, что используемые Microsoft методы лицензирования ограничивают выбор клиентов и усложняют переход к другим провайдерам.

«Например, Microsoft изменила условия лицензирования в 2019 году и ещё раз в 2022 году, чтобы затруднить клиентам запуск некоторых популярных программных предложений в Google Cloud, AWS и Alibaba Cloud, — отметила Amazon. — Чтобы использовать многие программные продукты Microsoft с продуктами этих поставщиков облачных услуг, клиент должен приобрести отдельную лицензию, даже если у него уже есть это ПО. Это часто делает для клиента финансово невыгодным выбирать другого поставщика, кроме Microsoft».

 Фото: Walkerssk / Pixabay

Фото: Walkerssk / Pixabay

5 октября CMA начало официальное расследование в отношении индустрии облачных вычислений в Великобритании по предложению Ofcom, регулятора телекоммуникаций страны, выразившего обеспокоенность по поводу доминирования Amazon и Microsoft на облачном рынке. Согласно данным Ofcom, в 2022 году совокупная доля Amazon Web Services (AWS) и Microsoft на облачном рынке Великобритании составляла 70–80 %, в то время как доля Google, их ближайшего конкурента, была 5–10 %.

 Фото: AWS

Фото: AWS

Глава CMA Сара Карделл (Sarah Cardell) заявила, что это рынок объёмом £7,5 млрд, который лежит в основе целого ряда онлайн-сервисов — от социальных сетей до ИИ. «Многие предприятия теперь полностью полагаются на облачные сервисы, что делает необходимой эффективную конкуренцию на этом рынке», — отметила она. Google утверждает, что практика лицензирования Microsoft не оставляет клиентам «никакой экономически разумной альтернативы, кроме использования Azure в качестве поставщика облачных услуг».

В августе прошлого года Microsoft обновила условия соглашений об облачном лицензировании, однако конкуренты не увидели в них существенных изменений. Вице-президент Google Cloud Амит Завери (Amit Zavery) сообщил в интервью агентству Reuters, что обновлённое лицензирование Microsoft привело к увеличению затрат для клиентов, которые хотели бы использовать сервисы Google или AWS вместо Azure. Завери также отметил, что AWS не представляет таких же антиконкурентных рисков, как Microsoft, несмотря на большую долю облачного рынка, поскольку у неё нет таких лицензионных ограничений.

Постоянный URL: http://servernews.ru/1097216
02.12.2023 [23:23], Сергей Карасёв

Google настаивает на антимонопольных мерах против Microsoft на облачном рынке Великобритании

Компания Google, по сообщению агентства Reuters, направила в антимонопольный орган Великобритании жалобу против Microsoft: редмондский гигант обвиняется в неконкурентном поведении на облачном рынке. По заявлениям Google, политика Microsoft ставит в невыгодное положение других провайдеров облачных услуг.

Amazon Web Services (AWS) и Microsoft Azure столкнулись с растущим вниманием во всем мире по поводу их доминирования на рынке облачных вычислений, в том числе европейском. По оценкам Canalys, в III квартале 2023 года доля AWS в мировом масштабе составляла 31 %, Microsoft Azure — 25 %. Для сравнения: Google Cloud контролирует около 10 %.

 Источник изображения: Google

Источник изображения: Google

Проверкой деятельности Amazon и Microsoft занялись регулирующие органы Великобритании, Европейского Союза и США. В частности, минувшим летом Google направила жалобу на Microsoft в Федеральную торговую комиссию США (FTC), обвинив этого облачного провайдера в антиконкурентной практике. Кроме того, сообщалось, что антимонопольное расследование деятельности Amazon и Microsoft на облачном рынке начнёт британский регулятор Office of Communications (Ofcom).

Сообщается, что в октябре нынешнего года Управление по защите конкуренции и рынкам Великобритании (CMA) с подачи Ofcom инициировало оценку бизнес-практики Amazon и Microsoft в облачном сегменте. По данным Ofcom, в 2022 году AWS и Microsoft Azure совместно контролировали 70–80 % британского рынка публичных облачных услуг, тогда как доля Google варьировалась в диапазоне 5–10 %.

В своей жалобе в CMA компания Google заявляет, что политика лицензирования Microsoft ухудшает конкурентную обстановку на облачном рынке. По утверждениям Google, из-за лицензионных ограничений Microsoft у британских клиентов «не остаётся экономически разумной альтернативы, кроме как использовать Azure в качестве поставщика облачных услуг, даже если у конкурентов более привлекательные цены, качество, безопасность и функциональные возможности». В ЕС Microsoft пошла на некоторые уступки в прошлом году, однако Amazon и Google они не коснулись.

Постоянный URL: http://servernews.ru/1096859
26.11.2023 [02:16], Владимир Мироненко

Платформа Microsoft Azure RTOS стала открытой и перешла под эгиду Eclipse Foundation

Microsoft объявила, что набор средств разработки встраиваемых решений Azure RTOS, включающий операционную систему реального времени (ОСРВ) ThreadX, был переведён в категорию решений с открытым исходным кодом под именем Eclipse ThreadX и теперь будет развиваться под эгидой организации Eclipse Foundation.

В Eclipse Foundation заявили, что новый проект — «именно то, в чём очень давно нуждался сильно фрагментированный рынок встраиваемого ПО». ThreadX станет первой в мире open source ОСРВ, которая:

  • Отличается зрелостью и масштабируемостью — ThreadX разрабатывалась более 20 лет, в настоящее время установлена на более чем 12 млрд устройств по всему миру и высоко ценится как высокопроизводительная, высокодетерминированная ОСРВ.
  • Доступна под разрешающей открытой лицензией MIT.
  • Регулируется open source фондом Eclipse Foundation, что гарантирует нейтральную модель управления развитием и устойчивостью ThreadX.
  • Сертифицирована на защищённость и безопасность. ThreadX соответствует стандартам IEC 61508, IEC 62304, ISO 26262 и EN 50128, что подтверждено SGS-TÜV Saar. ThreadX также получила сертификат безопасности по стандартам Common Criteria EAL4+.

Отмечается, что в настоящее время нет аналогичных ОСРВ с открытым исходным кодом, имеющих подобную сертификацию и перечисленные преимущества.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Проект Eclipse ThreadX станет доступен в I квартале 2024 года и будет включать ThreadX, NetX Duo, FileX, GUIX, USBX, LevelX, а также соответствующие инструменты и документацию. Microsoft предоставит проекту самые последние сертификаты, чтобы обеспечить непрерывность выпуска сертифицированных релизов. Фонд Eclipse Foundation объявил о создании группы, занимающейся разработкой модели устойчивого финансирования ThreadX, которую согласились поддержать AMD, Cypherbridge, Microsoft, NXP, PX5, Renesas, ST Microelectronics, Silicon Labs и Witekio (Avnet).

Постоянный URL: http://servernews.ru/1096530
24.11.2023 [10:55], Сергей Карасёв

Microsoft увеличит облачную инфраструктуру в Канаде на 750 %, построив несколько новых дата-центров

Корпорация Microsoft, по сообщению ресурса Datacenter Dynamics, намерена существенно расширить сеть ЦОД в Канаде. Речь идёт о строительстве нескольких дополнительных объектов, которые расположатся в Квебеке. Инвестиции в проект составят приблизительно $500 млн на протяжении двух лет.

У Microsoft уже есть два канадских региона Azure: Canada Central располагается в Торонто (Онтарио), а Canada East — в Квебеке. Оба открылись в 2016 году. При этом в Квебеке действует только одна зона доступности.

Строительство новых канадских ЦОД Microsoft намерена начать в ближайшие месяцы. Они будут размещены в Л'Ансьен-Лоретте, Доннаконе, Сен-Огюстен-де-Деморе и Леви. Мощности объектов пока не раскрываются. Но отмечается, что эти дата-центры позволят Microsoft увеличить масштаб локальной облачной инфраструктуры на 750 %.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Ресурсами будущих площадок смогут воспользоваться компании и организации из частного и государственного секторов. ЦОД проектируются с прицелом на НРС и ИИ. Дата-центры создаются с учётом высоких требований к устойчивости и эффективности: предполагается использование низкоуглеродных материалов при строительстве, возобновляемых источников энергии и передовых систем охлаждения. Кроме того, будут предприняты меры по снижению использования дизельного топлива во время эксплуатации.

«Эти инвестиции не только предоставят организациям Квебека больше возможностей и дополнительную устойчивость для трансформации операций, но также позволят создать надежную и безопасную основу для более быстрого масштабирования решений и их вывода на рынок», — заявляет Microsoft.

Постоянный URL: http://servernews.ru/1096462
18.11.2023 [00:38], Владимир Мироненко

NVIDIA и Microsoft развернули в облаке Azure платформу для создания приложений генеративного ИИ

Компания NVIDIA представила на конференции Microsoft Ignite 2023 сервис NVIDIA AI Foundry, который позволит предприятиям ускорить разработку и настройку пользовательских приложений генеративного ИИ с использованием собственных данных, развёртываемых в облаке Microsoft Azure.

NVIDIA AI Foundry объединяет три элемента: набор базовых моделей NVIDIA AI Foundation, платформу и инструменты NVIDIA NeMo, а также суперкомпьютерные сервисы NVIDIA DGX Cloud AI. Вместе они предоставляют предприятиям комплексное решение для создания пользовательских моделей генеративного ИИ. Компании смогут затем развёртывать свои индивидуальные модели с помощью платформы NVIDIA AI Enterprise для создания приложений ИИ, включая интеллектуальный поиск, обобщение и генерацию контента.

«Предприятиям нужны кастомные модели для реализации специализированных навыков, основанных на собственной ДНК их компании — их данных, — сообщил глава NVIDIA Дженсен Хуанг (Jensen Huang), — Сервис NVIDIA AI Foundry сочетает в себе наши технологии моделей генеративного ИИ, опыт обучения LLM и гигантскую фабрику ИИ. Мы создали это в Microsoft Azure, чтобы предприятия по всему миру могли подключить свою собственную модель к ведущим в мире облачным сервисам Microsoft».

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Сервис NVIDIA AI Foundry можно использовать для настройки моделей для приложений на базе генеративного ИИ в различных отраслях, включая корпоративное ПО, телекоммуникации и медиа. При их развёртывании компании смогут использовать метод генерации с расширенным поиском (RAG), чтобы привязать свои модели к базе корпоративных данных для получения актуальных ответов.

В сервисе NVIDIA Foundry клиенты смогут выбирать из нескольких моделей NVIDIA AI Foundation, включая новое семейство Nemotron-3 8B в составе каталога моделей Azure AI. Разработчики также могут получить доступ к моделям Nemotron-3 8B в каталоге NVIDIA NGC и к популярным моделям Llama 2, Mistral и Stable Diffusion XL. NVIDIA сообщила, что одними из первых новым сервисом для создания моделей воспользовались SAP, Amdocs и Getty Images.

Наконец, в Azure стала доступна и платформа NVIDIA DGX Cloud AI, в рамках которой клиенты смогут арендовать кластеры, состоящие из тысяч ускорителей NVIDIA и воспользоваться ПО NVIDIA AI Enterprise, включая NeMo, для ускорения настройки LLM. Клиенты Azure смогут использовать существующие кредиты Microsoft Azure Consumption Commitment для ускорения разработки ИИ-моделей.

Отметим, что первым сервис DGX Cloud получило облако Oracle, где Microsoft арендует ускорители той же NVIDIA для собственных нужд. По слухам, компания также использует ускорители CoreWeave и Lambda Labs, а также разрабатывает более экономичные ИИ-модели. По-видимому, продавать доступ к аппаратным и иным решениям NVIDIA для Microsoft выгоднее, чем использовать для своих нужд. Впрочем, если всё сложится удачно, то компания перейдёт на ИИ-ускорители Maia 100 собственной разработки.

Постоянный URL: http://servernews.ru/1096150
16.11.2023 [16:23], Сергей Карасёв

В облаке Microsoft Azure появились первые в отрасли ИИ-инстансы на базе NVIDIA H100 NVL

Корпорация Microsoft объявила о том, что на базе облака Azure стали доступны виртуальные машины NC H100 v5 для HPC-вычислений и нагрузок ИИ. Это, как отмечается, первые в отрасли облачные инстансы на базе ускорителей NVIDIA H100 NVL. Данное решение объединяет два PCIe-ускорителя H100, соединённых посредством NVIDIA NVLink. Объём памяти HBM3 составляет 188 Гбайт, а заявленная FP8-производительность (с разреженностью) достигает почти 4 Пфлопс.

Инстансы H100 v5 основаны на платформе AMD EPYC Genoa. В зависимости от реализации, доступны 40 или 80 vCPU и 320 и 640 Гбайт памяти соответственно. В первом случае задействован один ускоритель NVIDIA H100 NVL с 94 Гбайт памяти HBM3, во втором — два ускорителя с суммарно 188 Гбайт памяти HBM3. Пропускная способность сетевого подключения — 40 и 80 Гбит/с.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В отличие от виртуальных машин серии ND, рассчитанных на самые крупные модели ИИ, инстансы NC оптимизированы для обучения и инференса моделей меньшего размера, которым не требуются сверхмасштабные массивы данных. Виртуальные машины Azure NC H100 v5 также хорошо подходят для определённых НРС-нагрузок: это гидродинамика, молекулярная динамика, квантовая химия, прогнозирование погоды и моделирование климата, а также финансовая аналитика.

В 2024 году Microsoft добавит в облако Azure виртуальные машины с новейшими ускорителями NVIDIA H200: оно смогут обрабатывать более крупные модели ИИ без увеличения задержки. А уже сейчас клиентам Azure стал доступен сервис DGX Cloud.

Постоянный URL: http://servernews.ru/1096056
16.11.2023 [15:29], Сергей Карасёв

В Microsoft Azure появились инстансы ND MI300X v5 с восемью ускорителями AMD Instinct и процессорами Intel Xeon

Компания Microsoft анонсировала инстансы Azure ND MI300X v5 на основе ускорителей AMD Instinct MI300X, представленных летом нынешнего года. Эти ВМ ориентированы на ресурсоёмкие ИИ-нагрузки, в частности, на решение задач инференса.

Изделия Instinct MI300X несут на борту 192 Гбайт памяти HBM3 с пропускной способностью до 5,2 Тбайт/с. В составе одной виртуальной машины ND MI300X v5 объединены восемь ускорителей, соединённых между собой посредством Infinity Fabric 3.0, а с хостом — по PCIe 5.0. В сумме это даёт 1,5 Тбайт памяти HBM3, что, как отмечает Microsoft, является самой большой ёмкостью HBM, доступной в облаке.

Виртуальные машины Azure ND — это дополнение к семейству решений на базе GPU, такие машины специально предназначены для рабочих нагрузок ИИ и глубокого обучения. Microsoft подчёркивает, что в случае ND MI300X v5 используется та же аппаратная платформа, которая применяется и для других ВМ семейства. Она включает процессоры Intel Xeon Sapphire Rapids, 16 каналов оперативной памяти DDR5, а также подключение NVIDIA Quantum-2 CX7 InfiniBand с пропускной способностью 400 Гбит/с на каждый ускоритель и 3,2 Тбит/с на виртуальную машину.

 Источник изображения: AMD

Источник изображения: AMD

По заявлениям Microsoft, на базе ND MI300X v5 могут запускаться самые крупные модели ИИ. Клиенты могут быстро перейти на новые инстансы с других решений серии ND благодаря тому, что открытая платформа AMD ROCm содержит все библиотеки, компиляторы, среды выполнения и инструменты, необходимые для ускорения ресурсоемких приложений.

Постоянный URL: http://servernews.ru/1096052
16.11.2023 [02:43], Алексей Степин

Microsoft представила 128-ядерый Arm-процессор Cobalt 100 и ИИ-ускоритель Maia 100 собственной разработки

Гиперскейлеры ради снижения совокупной стоимости владения (TCO) и зависимости от сторонних вендоров готовы вкладываться в разработку уникальных чипов, изначально оптимизированных под их нужды и инфраструктуру. К небольшому кругу компаний, решившихся на такой шаг, присоединилась Microsoft, анонсировавшая Arm-процессор Azure Cobalt 100 и ИИ-ускоритель Azure Maia 100.

 Изображения: Microsoft

Изображения: Microsoft

Первопроходцем в этой области стала AWS, которая разве что память своими силами не разрабатывает. У AWS уже есть три с половиной поколения Arm-процессоров Graviton и сразу два вида ИИ-ускорителей: Trainium для обучения и Inferentia2 для инференса. Крупный китайский провайдер Alibaba Cloud также разработал и внедрил Arm-процессоры Yitian и ускорители Hanguang. Что интересно, в обоих случаях процессоры оказывались во многих аспектах наиболее передовыми. Наконец, у Google есть уже пятое поколение ИИ-ускорителей TPU.

Microsoft заявила, что оба новых чипа уже производятся на мощностях TSMC с использованием «последнего техпроцесса» и займут свои места в ЦОД Microsoft в начале следующего года. Как минимум, в случае с Maia 100 речь идёт о 5-нм техпроцессе, вероятно, 4N. В настоящее время Microsoft Azure находится в начальной стадии развёртывания инфраструктуры на базе новых чипов, которая будет использоваться для Microsoft Copilot, Azure OpenAI и других сервисов. Например, Bing до сих пор во много полагается на FPGA, а вся ИИ-инфраструктура Microsoft крайне сложна.

Microsoft приводит очень мало технических данных о своих новинках, но известно, что Azure Cobalt 100 имеет 128 ядер Armv9 Neoverse N2 (Perseus) и основан на платформе Arm Neoverse Compute Subsystem (CSS). По словам компании, процессоры Cobalt 100 до +40 % производительнее имеющихся в инфраструктуре Azure Arm-чипов, они используются для обеспечения работы служб Microsoft Teams и Azure SQL. Oracle, вложившаяся в своё время в Ampere Comptuing, уже перевела все свои облачные сервисы на Arm.

Чип Maia 100 (Athena) изначально спроектирован под задачи облачного обучения ИИ и инференса в сценариях с использованием моделей OpenAI, Bing, GitHub Copilot и ChatGPT в инфраструктуре Azure. Чип содержит 105 млрд транзисторов, что больше, нежели у NVIDIA H100 (80 млрд) и ставит Maia 100 на один уровень с Ponte Vecchio (~100 млрд). Для Maia организован кастомный интерконнект на базе Ethernet — каждый ускоритель располагает 4,8-Тбит/с каналом для связи с другими ускорителями, что должно обеспечить максимально эффективное масштабирование.

Сами Maia 100 используют СЖО с теплообменниками прямого контакта. Поскольку нынешние ЦОД Microsoft проектировались без учёта использования мощных СЖО, стойку пришлось сделать более широкой, дабы разместить рядом с сотней плат с чипами Maia 100 серверами и большой радиатор. Этот дизайн компания создавала вместе с Meta, которая испытывает аналогичные проблемы с текущими ЦОД. Такие стойки в настоящее время проходят термические испытания в лаборатории Microsoft в Редмонде, штат Вашингтон.

В дополнение к Cobalt и Maia анонсирована широкая доступность услуги Azure Boost на базе DPU MANA, берущего на себя управление всеми функциями виртуализации на манер AWS Nitro, хотя и не целиком — часть ядер хоста всё равно используется для обслуживания гипервизора. DPU предлагает 200GbE-подключение и доступ к удалённому хранилищу на скорости до 12,5 Гбайт/с и до 650 тыс. IOPS.

Microsoft не собирается останавливаться на достигнутом: вводя в строй инфраструктуру на базе новых чипов Cobalt и Maia первого поколения, компания уже ведёт активную разработку чипов второго поколения. Впрочем, совсем отказываться от партнёрства с другими вендорами Microsoft не намерена. Компания анонсировала первые инстансы с ускорителями AMD Instinct MI300X, а в следующем году появятся инстансы с NVIDIA H200.

Постоянный URL: http://servernews.ru/1096037

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus